«تحولات هوشمصنوعی» از سیاستگذاران پیشی گرفته است. از زمان راهاندازی چت جیپیتی در سال ۲۰۲۲، قدرت هوش مصنوعی بهطرز چشمگیری افزایش یافته است. منطقی است که فرض کنیم این مدلها در سالهای آینده قدرتمندتر، مستقلتر و فراگیرتر خواهند شد...
رهبران امنیت ملی به ندرت میتوانند انتخاب کنند که به چه چیزی و چقدر اهمیت بدهند. آنها اغلب تابع شرایطی هستند که خارج از کنترل آنهاست. حملات ۱۱سپتامبر، برنامه دولت جورج.دبلیو بوش برای کاهش تعهدات و مسوولیتهای جهانی ایالات متحده را معکوس کرد. انقلابها در سراسر جهان عرب، درست زمانی که باراک اوباما، رئیسجمهور آمریکا، تلاش میکرد آمریکا را از خاورمیانه بیرون بکشد، او را به این منطقه بازگرداند. حمله روسیه به اوکراین، هدف دولت بایدن برای ایجاد روابط «پایدار و قابل پیشبینی» با مسکو را نقش بر آب کرد تا بتواند بر رقابت استراتژیک با چین تمرکز کند. به نوشته مجله فارنافرز، سیاستگذاران میتوانستند بسیاری از نیروها و روندهای اساسی محرک این رویدادهای شکلدهنده دستور کار را پیشبینی کنند. با این حال، در بیشتر موارد، آنها در برنامهریزی برای چالشبرانگیزترین نمودهای این نیروها، به اینکه به کجا منتهی میشوند، شکست خوردند. آنها مجبور بودند برای پاسخ به رویدادهای در حال وقوع، استراتژیهای خود را از نو مفهومسازی و تنظیم کنند. پیشرفت سریع هوش مصنوعی - و ظهور احتمالی هوش مصنوعی جنرال - نویدبخش اختلالی حتی بزرگتر برای سیاستگذاران است. نشانههای یک تغییر قدرتمند در راه است که همه جا دیده میشود. پکن و واشنگتن رهبری جهانی هوش مصنوعی را به یک ضرورت استراتژیک تبدیل کردهاند و شرکتهای پیشروی آمریکایی و چینی برای دستیابی به هوش مصنوعی عمومی یا جنرال (AGI) در حال رقابت هستند. پوشش خبری تقریباً روزانه شامل اعلامیههای مربوط به پیشرفتهای فنی، بحث در مورد از دست دادن شغل ناشی از هوش مصنوعی و ترس از خطرات فاجعهبار جهانی مانند مهندسی یک بیماری همهگیر مرگبار با استفاده از هوش مصنوعی است. هیچ راهی برای دانستن قطعی مسیر دقیق توسعه هوش مصنوعی یا چگونگی تغییر امنیت ملی توسط آن وجود ندارد. بنابراین، سیاستگذاران باید با فروتنی و احتیاط، شایستگی استراتژیهای هوش مصنوعی رقیب را ارزیابی و مورد بحث قرار دهند. چه در مورد چشمانداز هوش مصنوعی خوشبین باشیم و چه بدبین، رهبران امنیت ملی باید آماده باشند تا برنامههای استراتژیک خود را بر تصمیمگیرندگان تحمیل کنند. واشنگتن باید برای بدهبستانهای سیاسی بالقوه و تغییرات ژئوپلیتیک آماده شود و گامهای عملی را که میتواند امروز برای کاهش خطرات و تقویت رقابتپذیری ایالات متحده بردارد، شناسایی کند. برخی از ایدهها و ابتکاراتی که امروز ممکن است غیرممکن یا غیرضروری به نظر برسند، با نگاهی به گذشته، فوری و بدیهی به نظر خواهند رسید. بهدنبال چشمانداز جدید هیچ تعریف استاندارد و مشترکی از هوش مصنوعی عمومی یا اجماعی در مورد اینکه آیا، چه زمانی یا چگونه ممکن است ظهور کند، وجود ندارد. مدلهای هوش مصنوعی پیشروی امروزی، در حال حاضر بهطور فزایندهای قادر به انجام تعداد و پیچیدگی بیشتری از وظایف شناختی نسبت به ماهرترین و مجهزترین انسانها هستند. از زمان راهاندازی چت جیپیتی در سال ۲۰۲۲، قدرت هوش مصنوعی بهطرز چشمگیری افزایش یافته است. منطقی است که فرض کنیم این مدلها در سالهای آینده قدرتمندتر، مستقلتر و فراگیرتر خواهند شد. با این وجود، بعید است که دوران هوش مصنوعی عمومی (AGI) مانند دوران هستهای که با نخستین آزمایش سلاحهای هستهای همراه بود، با یک لحظه تکاندهنده خود را نشان دهد. شرایط اقتصادی و فناوری نیز به اندازه گذشته برای برنامهریزان آمریکایی مطلوب نیست. برای مثال، در دوران هستهای، دولت ایالات متحده فناوری جدید را کنترل میکرد و برنامهریزان دو دهه فرصت داشتند تا قبل از ظهور یک رقیب هستهای، چارچوبهای سیاستی را تدوین کنند. در مقابل، برنامهریزان امروزی، اختیار و زمان کمتری برای سازگاری دارند. چین در حال حاضر در فناوری تقریباً همرده است، تعداد انگشتشماری از شرکتهای خصوصی، این «توسعه و پیشبرد» را هدایت میکنند و هوش مصنوعی یک فناوری همهمنظوره است که تقریباً در هر بخش از اقتصاد و جامعه در حال گسترش است. در این محیط به سرعت در حال تغییر، رهبران امنیت ملی باید منابع برنامهریزی کمیاب را به رویدادهای محتمل اما بهشدت چالشبرانگیز اختصاص دهند. این نوع رویدادها صرفاً اختلال در وضع موجود نیستند، بلکه نشانههایی از آیندههای جایگزین نیز هستند. برای مثال، فرض کنید یک شرکت آمریکایی ادعا میکند که به جهش تکنولوژیکی متحولکنندهای در حوزه هوش مصنوعی عمومی (AGI) دست یافته است. رهبران باید تصمیم بگیرند که اگر این شرکت درخواست کند که به عنوان یک «دارایی امنیت ملی» با آن برخورد شود، دولت ایالات متحده چگونه باید واکنش نشان دهد. سیاستگذارانی که با این سناریوها دست و پنجه نرم میکنند، باید ارزیابیهای رقیب و گاه متناقض را متعادل کنند که منجر به قضاوتهای متفاوتی در مورد میزان ریسک قابل پذیرش و اولویتبندی نگرانیها خواهد شد. بدون قابلیتهای تحلیلی قوی و مستقل، دولت ایالات متحده ممکن است برای تعیین اعتبار ادعاهای شرکتها با مشکل مواجه شود. رهبران امنیت ملی همچنین باید در نظر بگیرند که آیا پیشرفت تکنولوژیک جدید میتواند برای چین مزیت استراتژیک ایجاد کند یا خیر. اگر آنها نگران باشند که هوش مصنوعی عمومی به پکن این امکان را بدهد که آسیبپذیریهای زیرساختهای حیاتی ایالات متحده را سریعتر از آنچه دفاع سایبری میتواند آنها را وصله کند، شناسایی و بهرهبرداری کند، ممکن است اقداماتی را تجویز کنند که میتواند خطر درگیری ژئوپلیتیک را افزایش دهد. از سوی دیگر، اگر رهبران امنیت ملی بیشتر نگران این باشند که بازیگران غیردولتی یا تروریستها میتوانند از این فناوری جدید برای ایجاد سلاحهای بیولوژیک فاجعهبار استفاده کنند، ممکن است ترجیح دهند برای جلوگیری از گسترش یک تهدید جهانی بزرگتر، با پکن همکاری کنند. افزایش آمادگی برای سناریوهای هوش مصنوعی عمومی (AGI) نیازمند درک بهتر از اکوسیستم هوش مصنوعی در داخل و خارج از کشور است. سازمانهای دولتی باید با نحوه توسعه هوش مصنوعی همگام باشند تا مشخص کنند که پیشرفتهای جدید در کجا محتملتر است. این امر خطر غافلگیری استراتژیک را کاهش میدهد و به انتخابهای سیاستی در مورد اولویتبندی تنگناها و بهرهبرداری از آسیبپذیریها برای کند کردن بالقوه پیشرفت چین کمک میکند. سیاستگذاران همچنین باید راههایی را برای همکاری با بخش خصوصی و سایر کشورها بررسی کنند. یک مشارکت مقیاسپذیر، پویا و دوطرفه بین بخش خصوصی و دولتی برای پاسخ استراتژیک به چالشهای فعلی هوش مصنوعی بسیار مهم است و این امر در دنیای هوش مصنوعی عمومی (AGI) حتی بیشتر صدق خواهد کرد. سوءظن متقابل بین دولت و بخش خصوصی میتواند هرگونه واکنش به بحران را فلج کند. در همین حال، رهبران باید سیاستهایی را برای به اشتراک گذاشتن اطلاعات حساس و اختصاصی در مورد تحولات هوش مصنوعی پیشرو با شرکا و متحدان تدوین کنند. بدون چنین سیاستهایی، ایجاد ائتلاف بینالمللی مورد نیاز برای پاسخ به بحران ناشی از هوش مصنوعی، کاهش ریسک جهانی و پاسخگو نگه داشتن کشورها و شرکتها در قبال رفتارهای غیرمسوولانه، چالش برانگیز خواهد بود. هوش مصنوعی خصمانه هوش مصنوعی عمومی نه تنها پویاییهای ژئوپلیتیک موجود را پیچیدهتر خواهد کرد، بلکه چالشهای جدیدی در امنیت ملی نیز ایجاد خواهد کرد. یک حمله سایبری بیسابقه مبتنی بر هوش مصنوعی را تصور کنید که موسسات مالی، شرکتهای خصوصی و سازمانهای دولتی را ویران کند و سیستمهای فیزیکی را از زیرساختهای حیاتی گرفته تا روباتیک صنعتی از کار بیندازد. در دنیای امروز، تعیین اینکه چه کسی مسوول جنگ سایبری است، خود به خود یک کار چالش برانگیز و زمانبر است. هر تعداد از بازیگران دولتی و غیردولتی، هم ابزار و هم انگیزههای لازم برای انجام حملات بیثباتکننده را دارند. با این حال، در جهانی با هوش مصنوعی بهطور فزایندهای پیشرفته، وضعیت حتی پیچیدهتر خواهد شد. سیاستگذاران نه تنها باید این احتمال را در نظر بگیرند که عملیاتی در این مقیاس میتواند مقدمهای برای یک لشکرکشی نظامی باشد، بلکه باید این احتمال را نیز در نظر بگیرند که این کار ممکن است کار یک عامل هوش مصنوعی خودمختار و خودتکثیرشونده باشد. برنامهریزی برای این سناریو مستلزم ارزیابی چگونگی تواناییهای امروز در مواجهه با چالشهای فردا است. دولتها نمیتوانند برای ارزیابی سریع و مطمئن یک تهدید، به ابزارها و تکنیکهای امروزی تکیه کنند، چه برسد به اینکه اقدامات متقابل مربوطه را به کار گیرند. با توجه به ظرفیت اثباتشده سیستمهای هوش مصنوعی در فریب و پنهانکاری، سیستمهای فعلی ممکن است قادر به تشخیص این نباشند که آیا یک عامل هوش مصنوعی به تنهایی عمل میکند یا به دستور دشمن. برنامهریزان باید راههای جدیدی برای ارزیابی انگیزههای آن و چگونگی جلوگیری از تشدید تنش پیدا کنند. آماده شدن برای بدترین حالت مستلزم ارزیابی مجدد گامهای «منتسب به ندانمگرایی فعلی» برای تقویت دفاع سایبری، ایزوله کردن مراکز داده بالقوه در معرض خطر و جلوگیری از ناتوانی پهپادها یا وسایل نقلیه متصل است. برنامهریزان باید ارزیابی کنند که آیا پروتکلهای فعلی نظامی و تداوم عملیات میتوانند تهدیدات هوش مصنوعی متخاصم را مدیریت کنند یا خیر. بیاعتمادی عمومی به دولت و شرکتهای فناوری، اطمینانبخشی به جمعیت نگران را در صورت انتشار اطلاعات نادرست ناشی از هوش مصنوعی، دشوارتر خواهد کرد. با توجه به اینکه یک عامل هوش مصنوعی مستقل احتمالا به مرزهای ملی احترام نمیگذارد، آمادگیهای کافی شامل ایجاد کانالهایی با شرکا و دشمنان بهطور یکسان برای هماهنگی یک واکنش بینالمللی موثر خواهد بود. اینکه رهبران چگونه تاثیرات خارجی یک تهدید قریبالوقوع را تشخیص میدهند، نحوه واکنش آنها را شکل میدهد. در صورت وقوع حمله سایبری، سیاستگذاران در لحظه باید تصمیم بگیرند که آیا خاموش کردن هدفمند سیستمهای سایبری-فیزیکی آسیبپذیر و مراکز داده آسیبپذیر را دنبال کنند یا - از ترس احتمال تکرار سریع - خاموشی جامعتری را اعمال کنند که بتواند از تشدید حملات جلوگیری کند اما این اقدام ممکن است در عین حال مانع عملکرد اقتصاد دیجیتال و سیستمهایی شود که فرودگاهها و نیروگاهها به آنها متکی هستند. این سناریوی از دست دادن کنترل، اهمیت شفافسازی اختیارات قانونی و تدوین برنامههای واکنش به حادثه را برجسته میکند. بهطور گستردهتر، این امر فوریت ایجاد سیاستها و استراتژیهای فنی برای رسیدگی به چگونگی تمایل مدلهای پیشرفته به سوءرفتار را تقویت میکند. برنامهریزی حداقل باید شامل چهار نوع اقدام باشد. اول، باید اقدامات «بدون پشیمانی» را تعیین کند که سیاستگذاران و بازیگران بخش خصوصی بتوانند امروز برای واکنش به رویدادها از موضع قدرت انجام دهند. دوم، باید دستورالعملهای «شکستن شیشه» را برای موارد اضطراری آینده ایجاد کند که بتوانند با ظهور تهدیدها، فرصتها و مفاهیم جدید، بهطور مداوم بهروزرسانی شوند. سوم، باید روی قابلیتهایی سرمایهگذاری کند که در سناریوهای متعدد، حیاتی به نظر میرسند. در نهایت، باید شاخصها و هشدارهای اولیه شکست استراتژیک را در اولویت قرار دهد و شرایطی را برای اصلاح مسیر ایجاد کند. جایی برای عادتهای قدیمی نیست برنامهریزی برای تاثیرات هوش مصنوعی عمومی (AGI) بر امنیت ملی باید از همین حالا آغاز شود. در جهانی که بهطور فزایندهای رقابتی و در حال اشتعال است و با یک محیط داخلی از نظر اقتصادی شکننده و از نظر سیاسی قطبی شده، نباید غافلگیر شد. اگرچه ممکن است که هوش مصنوعی در نهایت به یک «فناوری عادی» تبدیل شود - فناوریای مانند اینترنت یا برق که جهان را متحول میکند اما سرعت پذیرش آن محدودیتهای طبیعی دارد که دولتها و جوامع میتوانند آن را کنترل کنند - اما فرض اینکه آماده شدن برای یک اختلال بزرگ اشتباه است، احمقانه خواهد بود. برنامهریزی برای چالشهای دشوارتر میتواند به رهبران امنیت ملی کمک کند تا مسائل استراتژیک اصلی را شناسایی کرده و ابزارهای واکنشی بسازند که در شرایط نه چندان سخت نیز به همان اندازه مفید باشند. همچنین عاقلانه نیست که فرض کنیم چنین برنامهریزیای باعث ایجاد غرایز و مسیرهای سیاسی میشود که خطرات را تشدید میکند یا پیشرفت هوش مصنوعی را کُند میکند. برای مثال، در عصر هستهای، برنامهریزی برای تروریسم هستهای بالقوه، الهامبخش ابتکارات جهانی برای ایمنسازی مواد شکافتپذیر مورد نیاز برای ساخت سلاحهای هستهای شد که در نهایت جهان را امنتر کرد. همچنین خطرناک خواهد بود که احتمال هوش مصنوعی عمومی را مانند هر «سناریوی عادی» در دنیای امنیت ملی در نظر بگیریم. تخصص و تسلط فنی در سراسر دولت محدود و نابرابر است و بازیگران نهادی که در پاسخ به هر سناریویی دخیل خواهند بود، بسیار فراتر از آژانسهای امنیت ملی سنتی هستند. احتمالاً بیشتر سناریوها همزمان در خارج از کشور و در داخل کشور رخ میدهند. هرگونه واکنشی بهشدت به انتخابها و تصمیمات بازیگران خارج از دولت، از جمله شرکتها و سازمانهای جامعه مدنی، متکی خواهد بود که در اتاق وضعیت کاخ سفید جایی ندارند و ممکن است امنیت ملی را در اولویت قرار ندهند. به همین ترتیب، برنامهریزی را نمیتوان به آیندهپژوهان و متخصصان فنی که به پناهگاهی دوردست فرستاده میشوند تا ماهها در انزوا برنامههای دقیقی را تدوین کنند، واگذار کرد. آماده شدن برای آینده با هوش مصنوعی عمومی باید بهطور مداوم بر مباحث استراتژیک امروز تاثیر بگذارد. بحثهای فعالی در مورد مزایای استراتژیهای مختلف برای پیروزی در رقابت هوش مصنوعی و در عین حال جلوگیری از فاجعه وجود دارد، اما بحث کمتری در مورد چگونگی تغییر شکل چشمانداز بینالمللی، توزیع قدرت جهانی و اتحادهای ژئوپلیتیک توسط هوش مصنوعی عمومی (AGI) صورت گرفته است. در جهانی که بهطور فزایندهای چندقطبی میشود، بازیگران نوظهور، هوش مصنوعی پیشرفته - و اینکه چگونه ایالات متحده و چین فناوری هوش مصنوعی و معماری دیجیتال زیربنایی آن را منتشر میکنند - را کلید آرمانهای ملی خود میدانند. برنامهریزی اولیه، تمرینهای میدانی با متحدان و شرکا و گفتوگوی پایدار با کشورهایی که میخواهند از ریسکهای دیپلماتیک خود بکاهند، تضمین میکند که انتخابهای استراتژیک برای هر دو طرف سودمند باشند. هر استراتژی هوش مصنوعی که نتواند جهان چندقطبی و یک اکوسیستم فناوری جهانی توزیعشدهتر را در نظر بگیرد، شکست خواهد خورد. هر استراتژی امنیت ملی که نتواند با اثرات بالقوه دگرگونکننده هوش مصنوعی عمومی (AGI) دست و پنجه نرم کند، بیربط خواهد شد. رهبران امنیت ملی نمیتوانند بحرانهای خود را انتخاب کنند. به گزارش دنیای اقتصاد،با این حال، آنها میتوانند انتخاب کنند که برای چه چیزی برنامهریزی کنند و منابع را برای آمادگی در برابر چالشهای آینده به کجا اختصاص دهند. برنامهریزی برای هوش مصنوعی عمومی (AGI) غرق شدن در داستانهای علمی تخیلی یا حواسپرتی از مشکلات و فرصتهای موجود نیست. این یک روش مسوولانه برای آماده شدن در مقابل وقوع مجموعهای جدید از چالشهای امنیت ملی در جهانی بهشدت متحول است.